Research Article
Sertaç Dalgalıdere
Journal of Engineering and Philosophy, Volume 8, Issue 15, pp. 1-11
ABSTRACT
The growing use of generative artificial intelligence systems has raised important questions in digital journalism, particularly regarding how journalistic norms are reproduced by such systems in news production processes. This issue becomes especially significant in crisis and disaster reporting, where uncertainty is high and journalistic principles such as verification, objectivity, and ethical responsibility are critically important. This study aims to comparatively examine news texts generated by two large language models (ChatGPT and Gemini) based on the same disaster scenario. The research employs a single-case comparative qualitative content analysis. Within the scope of the analysis, the news texts produced by both models were coded and compared according to language and tone, adherence to journalistic norms, structural organization, and prompt fidelity. The findings indicate that both models generally adopt a neutral and cautious tone in news reporting. However, notable differences were observed in their textual organization. ChatGPT tends to produce a more linear structure resembling traditional agency journalism, whereas Gemini generates a modular news text organized through subheadings, which is more compatible with online journalism formats. In addition, the Gemini output was observed to expand the given context to a limited extent. Overall, the study suggests that generative large language models may reproduce journalistic norms in crisis and disaster reporting while displaying model-specific patterns in news construction. The findings also indicate that collaboration between human journalists and algorithmic systems is likely to become increasingly significant in the future of AI-assisted journalism. In this respect, the study provides a qualitative contribution to the literature on AI-supported news production.
Keywords: Artificial Intelligence, Generative AI, Automated Journalism, Crisis Reporting, Large Language Models
ÖZ
Üretken yapay zekâ sistemlerinin yaygınlaşması, dijital gazetecilik alanında özellikle de haber üretim süreçlerinde gazetecilik normlarının söz konusu sistemler tarafından nasıl yeniden üretildiği sorusunu gündeme getirmiştir. Özellikle kriz ve afet haberleri gibi hassas içeriklere sahip, yüksek belirsizlik içeren bağlamlarda yapay zekânın üretken dil modellerinin; doğrulama, nesnellik ve etik sorumluluk gibi gazetecilik alanının temel ilkelerine nasıl yaklaştığı önemli bir araştırma konusu haline gelmiştir. Bu çalışma, aynı afet senaryosu üzerinden, iki farklı büyük dil modeli (ChatGPT-4o, Gemini 1.5 Pro) tarafından üretilen haber metinlerini karşılaştırmalı olarak ele almayı amaçlamaktadır. Araştırma tek vaka temelli karşılaştırmalı nitel içerik analizi yöntemiyle yürütülmüştür. Yapılan analiz kapsamında iki modelden elde edilen haber metinleri; dil ve üslup özellikleri, gazetecilik normlarına uyum, yapısal organizasyon ve prompt sadakati kategorileri doğrultusunda kodlanmış ve karşılaştırılmıştır. Elde edilen bulgular, iki modelin de genel bağlamda nesnel ve temkinli bir haber dili kullandığını göstermektedir. ChatGPT geleneksel ajans haberciliğine daha yakın doğrusal bir haber yapısı üretmekte, Gemini ise alt başlıklarla internet haberciliğine daha uyumlu modüler bir haber metni ürettiği tespit edilmiştir. Ayrıca, Gemini’nin haber çıktısında bağlamın sınırlı ölçüde de olsa genişlettiği gözlenmiştir. Çalışma, üretken büyük dil modellerinin afet ve kriz haberciliğinde gazetecilik normlarını yeniden üretme biçimlerinin modele özgü farklılıklar gösterebildiğini ortaya koymaktadır. Ayrıca, yapay zekâ destekli gazeteciliğin geleceğinde insan ile algoritmalar arasındaki iş birliğinin daha belirleyici olacağını göstermektedir. Çalışma, tüm bu bağlamlarda yapay zekâ destekli haber üretimine ilişkin literatüre nitel bir katkı sunmaktadır.
Keywords: Yapay Zekâ, Üretken Yapay Zekâ, Otomatik Gazetecilik, Kriz Haberciliği, Büyük Dil Modelleri